
打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉
打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉2023 年 12 月,首个开源 MoE 大模型 Mixtral 8×7B 发布,在多种基准测试中,其表现近乎超越了 GPT-3.5 和 LLaMA 2 70B,而推理开销仅相当于 12B 左右的稠密模型。为进一步提升模型性能,稠密 LLM 常由于其参数规模急剧扩张而面临严峻的训练成本。
来自主题: AI技术研报
9150 点击 2024-02-04 13:59